查看原文
其他

【科技评论】发展人工智能要慎之又慎

2015-04-29 战略前沿技术

  从智能手机上类似于Siri这样的语音助理程序到能自动驾驶的汽车,人工智能(AI)正在成为我们日常生活中的一个重要组成部分。但也有专家表示,与发展其他技术相比,发展人工智能要更加小心谨慎。

  科技巨头心有戚戚

  最近越来越多的科学与科技巨头加入反AI阵营当中。

  著名天体物理学家斯蒂芬·霍金曾警告称,按人工智能的发展进度,在不久的将来,机器可能就会以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。

  美国太空探索技术公司SpaceX创办人及特斯拉电动汽车CEO伊隆·马斯克将玩弄人工智能等同于“召唤恶魔”,他认为人工智能可能是未来人类生存的最大威胁之一。

  微软联合创始人比尔·盖茨最近也发表言论表示对人工智能的发展感到担忧,他说:“如果我们能够很好地驾驭,机器能够为人类造福,但如果若干年后机器发展得足够智能就将成为人类的心头大患。”

  纵观历史上的发明,如火、电、蒸汽机等,除了推动社会前进,造福人类外,同样也会造成危险。为什么我们偏偏要对人工智能区别对待?

  未能如愿的迈达斯

  美国麻省理工学院物理学家马克斯·泰格马克此前在参加一个电台节目时说:“发展人工智能就像是发展核武器,在首次使用时我们真的需要慎之又慎,因为我们很有可能只有这一次机会。”

  从好的方面来看,在一定时期内,人工智能的确有益于社会,甚至于帮助人类消灭战争、远离疾病、告别贫困也不无可能。微软研究院实验室主管埃里克·霍维茨说,这项技术可以拯救成千上万人的生命,无论是通过防止车祸还是避免医疗上的人为失误。但对人类而言,发展人工智能的一个重要隐患是创造了一种能够不断完善自己并最终极有可能摆脱人类控制的机器。

  美国加州大学伯克利分校计算机科学家斯图尔特·拉塞尔说,不少人认为聪明一定是好的,会让事情变得更加美好。但实际情况是,并非所有的事情都是如此。就像希腊神话中迈达斯国王的故事一样,聪明的迈达斯曾想将他所触碰到的东西都变成黄金,但获得这一能力后他很快就后悔了,因为就连他的食物、水,甚至还有他的女儿也都变成了黄金。最终他接受建议,在河中沐浴后才得以解脱。

  拉塞尔说,越来越聪明的机器极有可能不会沿着人类的期望发展。实际上,能够自我学习自我完善的它们,很有可能在目标上与创造它的人类出现不一致。例如,核聚变和核裂变将近乎无限的能量储存在一个原子当中,但不幸的是我们获得这些知识后的第一件事情就是制造了一个超级杀人武器——原子弹。“如今,99%的聚变研究都是受到严格管制的,人工智能也将走上同一条道路。”

  担忧还不如去行动

  泰格马克将发展人工智能称为“日益强大的技术实力与人类不断增长的智慧之间的一场竞赛”。他认为,与其减缓前者的发展还不如更多地投资于后者。

  在今年1月的波多黎各,在由一家非营利组织生命未来研究所举行的一次会议上,来自学术界和工业界的百余名位科学家、企业家、投资者联名签署了一封公开信,提醒人们关注人工智能的安全性和社会效益。生命未来研究所是由Skype联合创始人让·塔林等志愿者于2014年创立的一家非营利组织,该机构致力于促进对人工智能“乐观的未来图景”的研究,同时“降低人类面临的风险”。

  这封公开信中描述了人工智能的潜在好处,同时也对其隐患进行了警告。与会者认为,随着人工智能研究的发展,它对社会的影响将越来越大。鉴于人工智能所具备的巨大潜力,应当将如何在规避潜在威胁的同时从中获益作为一个重要的课题来进行研究。对人工智能,我们的目标是让机器造福人类。期间,马斯克向该机构捐赠了1000万美元以促进这一目标的实现。


(来源:科技日报  作者:王小龙)

--------------------------------------------------------


延伸阅读:

霍金、穆斯克、盖茨

为何这些科技领袖都在担心人工智能?




人工智能,它是不是代表着一种对人类的“生存威胁”?有些非常聪明的人确实是这么认为的,比如埃伦·穆斯克,史蒂芬·霍金,比尔·盖茨,山姆·奥特曼,尤其是牛津大学教授尼克·伯斯特伦,他的一本名为《超级智能》的著作让穆斯克有感而发,在Twitter上发了好多条推文。技术专家按说都应该是些理性主义者,但是穆斯克却给人工智能叛逆者的威胁性增加了一层超自然色彩。去年10月份时,他在美国麻省理工学院(MIT)告诉听众:“我们这是在孕育恶魔。”


伯斯特伦到未必是把人工智能看成如恶魔那般邪恶。他思考得更多的是风险与机率。在2002年的一篇论文里,他将生存威胁定义为“其中的不利结果要么会毁灭地球上自然孕育的智能生命,要么会永久和严重地削弱地球智能生命的发展潜力”。在他看来,这些风险值得我们加以抑制,哪怕它们的发生几率非常之低,因为潜在的代价实在是太大了。这种灾祸的根源既可能是刻意为之,也可能纯属意外,并且可能会源自许多领域,包括生物技术、纳米技术,以及人工智能。


那么为何所有的矛头都指向了人工智能?我们无疑正处于机器智能在性能和估值上的急剧上升期。根据我在今年年初时所观察到的,深度学习如今已经走进了许多科技领军企业。但是在发生了类似廉价航空德国之翼(German-wings)的9525航班坠毁等事件之后,比起威胁到全人类的存在来说,机器智能似乎更可能被用于保护我们免受人类不当行为的侵害。


我个人对于这种畏惧心理的研究则让我得出了这样的结论:问题的关键其实更平凡、也更容易预料,那就是监管。我从最近加入了人工智能大辩论的科技界领袖那里选出了一些代表性的言论,其中最让我担忧的,反而是这些言论中透露出的为了避免出现意外后果而求助于监管的心理。


穆斯克在将人工智能定性为“我们最大的生存威胁”后,就说了这样的话:“我们应该采取一些管理和监督措施,可以是国家级或者国际性的,”他警告称,“这只是为了确保我们不会干出一些蠢事。”而与监管相比,对于全人类生存受到威胁的畏惧心理,反倒是这份言论清单上最不相干的概念。


首先,我要先说明,我也是一直在为这道难题抓耳挠腮的人之一。世上似乎还存在着许多比追捧“奇点”降临论更为紧迫的问题。与此同时,我也无比尊重其他那些可能懂得我并不了解的东西的人。想到那些“其他人”有的是霍金那样的天才,有的是穆斯克那样具有远见卓识的业界领袖,有的是盖茨那样的慈善家,有的是奥特曼那样的科技界业内部人士时,你就应该停下来好好反思一下。或许这完全已经远远超出了我们这些凡人所熟知的范畴?


另一方面,这些以最引人注意的方式敲响了警钟的人当中,没有一个是本身真的在做人工智能项目的。对这个领域投资的人是有,但是没有本身就在做这个的。所以,当Numenta公司的人工智能先驱杰夫·霍金斯(JeffHawkins)以回复的形式,在一本名为《终结者不会降世,未来将会感谢我们》(The- Terminator-Is-Not-Coming.The-Future-Will-Thank-Us)的书中写下了十分博学的反驳时,我把这看作是一个良性的信号。霍金斯研究人工智能带来的问题已有30多年,他一再向读者保证道:“我并没有其他人那样的顾虑,因为他们的想法建立在三大误解的基础上。”然后他解释道,智能会催生自我复制和自我意识在逻辑上是不成立的,而就算是人工智能也必须遵从物理定律。


霍金斯对这些畏惧心理的批判中,核心的一点便是他对“智能”这一定义的理解。我为了本文特意采访了霍金斯,然后暂时搁笔去读了他的著作《论智能》(On-Intelligence;2005年出版)。我在这里透露一些内容给大家:与笛卡尔“我思故我在”的论调截然相反,存在并不是由思想产生的。我思,且我在。这两件事是同时发生,而不存在因果性。在霍金斯看来,智能是发生在大脑新皮质上的活动,并且(用他在书中的原文来说)“意识不过是拥有大脑皮质所带来的感觉而已”。但是对智能机器的建造(霍金斯就正在致力于此),并不意味着这些机器会是有意识、有知觉,或者拥有自我复制能力的。


拥有知觉的机器或许真的会在某一天成为可能,而如何控制、约束或鞭策这些“生物”的情境,才是伯斯特伦面对超级智能所关心的核心问题所在。但是霍金斯为这场争论带来的则是他的如下主张:创造拥有自我感知的机器是一个与制造智能机器截然不同的问题。而这就是人工智能的当前使命。伯斯特伦的“约束”难题,只有在智能机器拥有了拓展自身力量的动机时,才会变得至关重要。

另一种温和的观点来自穆斯克的多年好友、作为“PayPal帮”一员的彼得·泰尔(Peter·Thiel)。在去年于都柏林举行的网络峰会(WebSummit)上,泰尔在一场访谈中探讨了超级智能的政治意义,将之与外星人登陆地球相比较。

如果外星人明天就会登陆地球,首要的问题不会是这对经济而言意味着什么。首要的问题会是政治层面的。他们是友好的吗?他们是有敌意的吗?而我认为,围绕着人工智能提出的政治问题是很重要的,我也认为,我们对这个问题的直觉还很不发达。

不仅我们这些凡人对于这一威胁缺少直觉,就连泰尔都觉得这个问题太过遥远。“我仍然认为这个问题属于十分遥远的未来。我的猜测是这会出现在一个世纪或更久以后。所以虽然我觉得这是个非常重要的问题,但也是一个我不会现在就为之担忧的问题。”那么为何这些科技界领袖还会有这些担忧,甚至还在最近的西南偏南音乐节(SXSW)上出现了反机器人的海报呢?泰尔将原因直接归结于大众对科技的普遍畏惧与误解。泰尔对网络峰会上的听众们说:“我有一条反向信念,认为我们其实并非真正生活在科学或技术的时代。而我们当中那些从事科学和技术工作的人,才是我们当今社会的反主流文化。”

提到好莱坞的科幻影片,泰尔认为,“它们全都是在描绘一种根本不成立的技术,要么是杀人的,要么是反乌托邦的,要么是毁灭世界的。”按照卡纳曼(Kahneman)的说法,这些机器人和反叛的人工智能的形象是存在于我们的幻想之中的。因此科技行业所面临的挑战,就是要让类似于霍金斯的智能机器这样的愿景变得比“终结者”更加可能、更加生动、更加值得信服。在这一点上,好莱坞影片同样也能贡献一份力量。

人工智能,或者更恰当的说法是机器智能,与合成生物学拥有太多共通之处。两者都拥有强大的力量,可以为人类带来巨大帮助。两者都会在流行文化中激发歇斯底里的情绪。无论是这两种情况的哪一种,我最关心的都是那些可能会滥用科技的人类败类,而非这些科技产品本身的邪恶能力。

记住一点会对这种针对科技的非理智恐惧大有裨益,那就是:世间万物,无论是不是人类制造出来的,都要遵从物理定律。阿德里安·贝扬(Adrian-Bejan)在其著作《自然中的设计》(Design-in-Nature)中指出,自然界和科技界共通的一项客观事实就是,它们都属于不断向前运动的系统。在完全自由的情况下,这些系统会随着时间推移而不断演进,增加系统中流动介质的流量。电子、人口、货币,全都遵从着同样的原理。对贝扬书中这一观点所做出的一种推论是,所有的增长轨迹都是遵循S曲线的。因此,不像那种任何进程均可无止境演进的纯数学模型,物理模型是会强行加入各种约束的。

数学与自然科学之间的这些交锋,正是我在当今围绕人工智能展开的争论中所看到的那些层出不穷的冲突所在。虽然深度学习植根于20世纪90年代建立在生物学基础上的神经网络学,但当代的年轻实践者们却是默认以一种更偏向数学化的思维来研究它。如果你没有经历过神经网络时代的美好未来以及后来的幻灭,那或许就会相信当代技术的潜力是无止境的。

迄今为止,对霍金斯的结论抨击得最为激烈的人士之一是雅恩·乐库(Yann·LeCun)。乐库是最早的神经网络研究者之一,如今已经成为深度学习运动中最为重要的人物之一。他目前是Facebook的人工智能主管。去年5月份在新闻网站Reddit上举办的一次“随便问”(AMA)活动上,乐库提醒大家,切莫低估霍金斯“要将这些概念实例化和简化至现实可操作”时所要面对的难度。对于Numenta公司的分层式即时记忆(Hierarchical-Temporal-Memory)算法,他提出了一个问题:它们是“在将目标功能最小化吗”?

在这一点上,由谷歌(Google)的杰弗里·辛顿(Geoffrey·Hinton)、百度的吴恩达、Facebook的乐库、微软还有其他人员机构所开发的深度学习技术,则已为具体分类工作(比如在视觉数据库ImageNet中识别出猫的图片)的解决提供了最高的精确度。这些系统一直能够用扩大规模的办法来提升表现,说明以数学性思维来进行研究还能不断取得的进步。但是这些方法已被证明并不牢靠,它们会对图片的像素进行细微的改动,或是在文字中插入不相干的词汇,这说明这些系统其实并没有真正“理解”它们所在处理的是些什么。


乐库自己也在去年12月份的数据驱动会议(Data-Driven-Conference)上讨论过穆斯克的那番“生存威胁”言论。他对现代人工智能的处境表达了一种非常中立也非常慎重的看法。 “还有一些基本问题我们尚未搞清楚。在不断前进的过程中,我们还会遭遇很多技术难关,”他说,“深度学习为我们带来了许多希望,我们正在这些方面取得进展。我们并不知道下一道壁垒会在哪里出现……还有很多取得进展的机会。我们目前尚不了解这个领域的极限在哪里。”


乐库和霍金斯都是人工智能大战中久经考验的战士,他们充满激情,但也不乏小心谨慎。人工智能领域出现过许多转瞬即逝的潮流,眼下的种种成就中或许也有很多会有朝一日沦落成其中的一员。


IBM刚刚宣布,它已经成立了一支100人的团队,来测试Numenta公司的算法,并在尝试制造相应的硬件设备,用来支持将霍金斯研究出的大脑皮层工作原理模型实例化所需要的大规模并行计算。乐库也认为霍金斯“拥有正确的直觉和正确的哲学”。乐库还列举了“无监督表达学习(unsupervised-representation-learning),尤其是用于处理基于预测的时序及次序信号的方法”,这正是Numenta公司的方法所专擅的领域,也是有待年轻工程师探索且前景看好的领域之一。


时序数据将是未来物联网的标志所在,创造出有别于大数据现有形式的需求。这会为搭建能够基于储存量越来越大的静态数据实现动态预测的模型带来价值优势。就像霍金斯对我说的,“未来可能更像是Snapchat,而非Facebook”。


于是这又把我们带回到了监管的话题上。如果机器智能在本质上就是对外部数据流的预测和响应,那还有什么可监管的呢?就这一点来说,答案并不是人工智能本身,而是人类置放数据的用途。这个答案是正确的,但对那些抱怨监管会扼杀创新的科技公司而言,却也是个无可厚非的痛点。


我并不认为穆斯克或其他那些人是在不负责任地指责人工智能的威胁性,但是这种姿态已经导致大众的视线从科技公司人员为世人带来的影响上转移开了。就像我曾经就生物技术发表过的看法一样,最能降低公众对新技术的畏惧心理的,就是让他们看到新技术能为许多人带来的显著福祉。


煽动针对人工智能的畏惧心理会带来预想之外的副作用,那就是政府或许会出于群情激动的公众所施加的压力,而施行适得其反的监管措施。埃伦·穆斯克曾捐助1,000万美元建立生命未来研究所(Future-of-Life-Institute),用于研究人工智能威胁性。从许多意义上来讲,我认为它既是技术专家和科学家们试图在政府对其做出监管之前先行尝试自我监管的努力,同时也不是。


(来源:福布斯中文网, 作者:Anthony Wing Kosner,译:薄锦,校:李其奇)


【战略前沿技术】2014全年文章目录已上线,回复“目录”即可查看,敬请关注!

2015年3月十篇精华文章(按阅读量排名)

请关注后【战略前沿技术】后,点击历史信息或回复201503查看。

日期

标题

20150314

美国国防部瞄准未来六大颠覆性基础研究领域

20150315

人类未来十大最顶尖科学技术

20150301

《MIT科技评论》评选出2015年10大新兴技术

20150319

国防科技大学2015年招生简介(附招生专业、各省市招生联系人和历年录取分数线)

20150304

如何“正确”打开谷歌学术?

20150307

2020,中国基础研究走向何方?

20150314

科研经费报销“逼良为娼”,怎么破?

20150319

关于无人机,你需要知道的都在这里了

20150307

达沃斯发布2015十大新兴技术:飞行机器人、仿人脑芯片等技术入选

20150317

博士:学术塔尖上的“悬浮族”


2015年2月十篇精华文章(按阅读量排名)

请关注后【战略前沿技术】后,点击历史信息或回复201502查看。

20150205

美国DARPA十大尖端科学技术 领先当代20年

20150207

2014年度十大国防材料技术突破

20150211

如何撰写2015版国家自然基金标书(附全攻略)

20150213

院士爹对女儿的科研忠告

20150217

科技部关于开展“十三五”国家重点研发计划优先启动重点研发任务建议征集工作的通知

20150227

做科研的11条军规

20150207

智库建设急需高端人才

20150201

两院院士评选2014年中国和世界十大科技进展新闻揭晓

20150227

30个部委局办2015年工作部署汇总

20150227

45个全球免费开放的电子图书馆

2015年1月十篇精华文章(按阅读量排名)

请关注后【战略前沿技术】后,点击历史信息或回复201501查看。

日期

标题

20150102

2015 年度国家自然科学基金申请政策有重大调整

20150110

2014年度国家科学技术奖获奖名单

20150109

中国科研经费分配新办法出炉 "863""973"退出历史舞台

20150114

“透明计算”,凭啥摘得自然科学一等奖?

20150115

科技改变未来:预言300年后的人类

20150131

科研:新常态下的新规则

20150131

国外高效毁伤技术发展及趋势

20150116

全球百强创新机构排行榜出炉 大陆仅华为上榜

20150104

高校病了:教学之殇

20150104

科学研究方面的一些问题


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存